Teams KI-Bibliothek

Die Teams KI-Bibliothek ist eine Teams-zentrierte Schnittstelle für GPT-basierte Common Language-Modelle und Benutzerabsichts-Engines, die die Notwendigkeit vereinfacht, dass Sie komplexe und teure Aufgaben des Schreibens und Verwaltens von Konversationsbotlogik für die Integration in große Sprachmodelle (LLMs) übernehmen müssen.

Visuelle Darstellung einer Benutzereingabe und einer Botantwort.

Die KI-Bibliothek bietet einen einfachen funktionsgesteuerten Ansatz und hilft Ihnen, intelligente Apps schnell und einfach mit vordefinierten, wiederverwendbaren Codeausschnitten zu erstellen, sodass Sie sich auf die Erstellung der Geschäftslogik konzentrieren können, anstatt die Semantik von Teams-Konversationsanwendungen zu erlernen.

Gründe für die Verwendung der Teams KI-Bibliothek

Die KI-Bibliothek ist eine Teams-zentrierte Schnittstelle für große Sprachmodelle. Ihre Apps können LLMs verwenden, um natürlichere Konversationsinteraktionen mit Benutzern zu ermöglichen und diese Konversation in Ihre App-Fähigkeiten zu integrieren.

Sie können sich auf das Schreiben Ihrer Geschäftslogik konzentrieren und Es Teams ermöglichen, die Komplexität von Konversationsbots zu verarbeiten, sodass Sie benutzerspezifische Absichten in Ihren Apps problemlos extrahieren und nutzen können.

Screenshot: Vorteile der Verwendung der Teams KI-Bibliothek

  • Die KI-Bibliothek ist eine Teams-zentrierte Schnittstelle für große Sprachmodelle. Verwenden Sie vordefinierte Vorlagen, um Teams-App-Funktionen hinzuzufügen.

  • Verwenden Sie Techniken wie prompt engineering, um Ihrem Bot ChatGPT wie Konversationserfahrungen und integrierte Sicherheitsfeatures wie Moderation hinzuzufügen, um sicherzustellen, dass Ihr Bot immer angemessen reagiert.

  • Die Bibliothek enthält eine Planungs-Engine, mit der das Modell die Absicht des Benutzers identifizieren und diese Absicht dann den von Ihnen implementierten Aktionen zuordnet.

  • Sie können ganz einfach Unterstützung für jede LLM Ihrer Wahl hinzufügen, ohne die Botlogik zu ändern.

Die Teams KI-Bibliothek ist in JavaScript- und C#-Sprachen verfügbar, sodass Sie die Leistungsfähigkeit von KI nutzen und intelligente, benutzerfreundliche Anwendungen für Microsoft Teams mit den Programmiersprachen erstellen können, mit denen sie am besten vertraut sind. Wir sind einer Denkweise verpflichtet, bei der Sie KI-Produkte mit den gewünschten Tools und Sprachen erstellen, um Ihren Kunden in Teams die bestmögliche Erfahrung zu bieten.

Im Folgenden finden Sie einige der Standard Features, die über die Teams KI-Bibliothek verfügbar sind:

Einfaches Teams-zentriertes Komponentengerüst

Die Teams KI-Bibliothek vereinfacht das Teams-App-Modell, um sich auf die erforderliche Erweiterung im Vergleich zum erforderlichen Protokoll zu konzentrieren. Sie können vordefinierte Vorlagen verwenden und Ihre Geschäftslogik zu diesem Gerüst hinzufügen, um Module wie Bots, Nachrichtenerweiterungen, adaptive Karten oder Linkentflechtung hinzuzufügen.

Modellierung in natürlicher Sprache

Die Teams KI-Bibliothek wurde mit GPT-gestützten Sprachmodellen erstellt, sodass Sie keine Zeit damit verbringen müssen, Ihre Konversationslogik zu schreiben und Benutzerabsichten zu identifizieren. Das Erstellen KI-gestützter Teams-Apps ist einfacher, konformer und konsistent nutzbar als je zuvor.

Bots können kontextintern ausgeführt werden und unterstützen, wenn der Bot eine Benutzerabsicht erkennt, die einer der Botaktionen zugeordnet ist. Dies fördert die Konversation, ohne dass Benutzer explizit mit dem Bot sprechen müssen, indem sie eine kleine Gruppe registrierter Aktionen verwenden.

Prompt Engineering

Prompt Engineering hilft Ihnen, Eingabeaufforderungen zu entwerfen, die die Absicht des Benutzers, den Kontext der Unterhaltung und die Botpersönlichkeit berücksichtigen. Bots können personalisiert und angepasst werden, um die Anforderungen der Benutzer zu erfüllen.

Verlauf der Konversationssitzung

Die KI-Bibliothek von Teams speichert den Kontext nachrichtenübergreifend und hilft, die Leistung des Bots zu verbessern, indem Muster im Benutzerverhalten analysiert werden.

Lokalisierung

Da die KI-Bibliothek von Teams das GPT-Modell von OpenAI verwendet, ist die Lokalisierung verfügbar. Wenn ein Benutzer in einer beliebigen Sprache eingibt, wird die Eingabe konsistent in Absichten, Entitäten und resultierende Aktionen übersetzt, die die App versteht, ohne dass Lokalisierungsdatensätze erstellt und verwaltet werden müssen.

LLM Modularität

Das Große Sprachmodell (Large Language Model, LLM) ist ein erweitertes Sprachmodell, das latente Variablen verwendet, um kohärenten und vielfältigen Text und Stil in natürlicher Sprache zu generieren.

Obwohl die Teams KI-Bibliothek für die Verwendung des GPT-Modells von Open AI entwickelt wurde, haben Sie die Flexibilität, mit jedem LLM Ihrer Wahl zu tauschen, ohne die Botlogik zu ändern. Dies bedeutet, dass Sie den Inhalt Ihrer App außerhalb der öffentlichen Domäne und auf Ihr bevorzugtes LLM-Modell beschränken können.

Verantwortungsvolle KI

Mit der Ki-Bibliothek von Teams können Sie ethische und verantwortungsvolle Konversations-Apps erstellen, indem Sie:

  • Moderationshooks: Um Botantworten für jede Moderations-API zu regulieren.
  • Konversations-Sweeping: Um Unterhaltungen zu überwachen und zu intervenieren, wenn die Konversation durch proaktive Erkennung und Wartung in die Irre geht.
  • Feedbackschleifen: Um die Leistung des Bots für qualitativ hochwertige Unterhaltungen zu bewerten und die Benutzererfahrung zu verbessern.

Die KI-Bibliothek von Teams bietet Unterstützung von wenig Code bis hin zu komplexen Szenarien. Die Bibliothek erweitert die Funktionen um KI-Konstrukte, um modellierung natürlicher Sprache, szenariospezifische Benutzerabsichten, Personalisierung und automatisierte kontextbezogene Unterhaltungen zu erstellen.

Predictive Engine zum Zuordnen von Absichten zu Aktionen

Eine einfache Schnittstelle für Aktionen und Vorhersagen ermöglicht Bots, zu reagieren, wenn der Bot vertrauen kann, um Maßnahmen zu ergreifen. Mithilfe der Umgebungspräsenz können Bots die Absicht erlernen, Eingabeaufforderungen basierend auf der Geschäftslogik verwenden und Antworten generieren. Wenn ein Benutzer z. B. nicht mehr im Büro war und einen Thread schnell zusammenfassen muss, gilt für die Bibliothek Folgendes:

  1. Versteht die Absicht als Zusammenfassung.
  2. Ermöglicht Eingabeaufforderungen das Erstellen von Zusammenfassungen über einen Zeitraum, der sich auf den Vorgesetzten des Benutzers konzentriert.
  3. Stellt Aktionen bereit, um Chatinhalte zusammenzufassen, die Benutzer nutzen können.

Aktions-Planner

Action Planner ist die Standard Komponente, die Ihr LLM (Large Language Model) aufruft und mehrere Features enthält, um Ihr Modell zu verbessern und anzupassen. Modell-Plug-Ins vereinfachen die Konfiguration Ihrer ausgewählten LLM für den Planner und werden mit einem OpenAIModel ausgeliefert, das sowohl OpenAI als auch Azure OpenAI LLMs unterstützt. Zusätzliche Plug-Ins für andere Modelle wie Llama-2 können problemlos hinzugefügt werden, sodass Sie flexibel auswählen können, welches Modell für Ihren Anwendungsfall am besten geeignet ist. Eine interne Feedbackschleife erhöht die Zuverlässigkeit, indem die untergeordneten Antworten des LLM korrigiert werden.

Eingabeaufforderungsverwaltung

Die dynamische Eingabeaufforderungsverwaltung ist ein Feature des KI-Systems, das es ermöglicht, die Größe und den Inhalt der Eingabeaufforderung anzupassen, die an das Sprachmodell gesendet wird, basierend auf dem verfügbaren Tokenbudget und den Datenquellen oder Augmentationen. Es kann die Effizienz und Genauigkeit des Modells verbessern, indem sichergestellt wird, dass die Eingabeaufforderung das Kontextfenster nicht überschreitet oder irrelevante Informationen enthält.

Augmentation

Verbessern und leiten Sie die Antworten Ihres KI-Modells mit Augmentation effizient. Mithilfe verschiedener Augmentierungsmodi können Sie Ihr Modell an Ihre Anforderungen anpassen und so die Genauigkeit und die gewünschten Ergebnisse erhöhen.

  • Retrieval Augmented Generation (RAG): Integriert automatisch echtzeitbasierte, dynamische und angegebene externe Datenquellen in die Antworten Ihres Modells, sodass aktuelle und kontextgenaue Ergebnisse erzielt werden, ohne das Modell zu optimieren oder neu zu trainieren. Beantworten Sie Fragen zu den heutigen Verkaufszahlen, oder passen Sie sie an die Daten eines bestimmten Benutzers an. mit RAG ist Ihr Modell nicht mehr in der Vergangenheit hängen geblieben.

  • Monolog: Create Agents im AutoGPT-Stil, die in der Lage sind, mehrstufige Aktionen unabhängig und zuverlässig mit vollständiger Schemavalidierung und automatischer Reparatur auszuführen.

  • Sequenz: Ermöglichen Sie Ihren KI-Assistent, eine Sequenz von Aktionen für die Ausführung zurückzugeben, wobei die Zuverlässigkeit der Schemavalidierung erhöht wird.

  • Funktionen: Erstellen Sie strukturierte Antworten aus Ihrem Modell, indem Sie benutzerdefinierte Funktionen verwenden. Diese Funktionen können mithilfe von JSON-Schemas angepasst werden, um die Parameter und ihr Format zu definieren. Der ActionPlanner bewertet Modellantworten anhand des Schemas und nimmt bei Bedarf Reparaturen vor, um die Zuverlässigkeit und Konsistenz der Reaktion zu erhöhen.

Vektordatenquellen

Vektordatenbanken sind eine neue Art von Datenbank, die entwickelt wurde, um Vektoren zu speichern und eine effiziente Suche darüber zu ermöglichen. Sie geben die relevantesten Ergebnisse für die Abfrage eines Benutzers zurück. Die Vektorsuchfunktion in einer Vektordatenbank ermöglicht die Abruferweiterungsgenerierung, LLMs und benutzerdefinierte Daten oder domänenspezifische Informationen zu verwenden. Dies umfasst das Extrahieren relevanter Informationen aus einer benutzerdefinierten Datenquelle und die Integration in die Modellanforderung durch Prompt Engineering. Vor dem Senden einer Anforderung an den LLM wird die Benutzereingabe, Abfrage oder Anforderung in eine Einbettung transformiert, und Vektorsuchtechniken werden verwendet, um die ähnlichsten Einbettungen in der Datenbank zu finden.

Erweitertes Denken

Die Teams KI-Bibliothek bietet ein integriertes Faktenüberprüfungssystem zur Bewältigung von Bot-Halluzinationen. Wenn ein Benutzer mit Ihrer KI-Assistent interagiert, fordert das System den Bot auf, sich in einen Prozess der Selbstreflektion einzulassen, der seine potenziellen Antworten vor dem Senden kritisch auswertet. Die Introspektion ermöglicht es dem Bot, Ungenauigkeiten zu identifizieren und seine Antworten zu korrigieren, was die Genauigkeit, Qualität und kontextbezogene Relevanz verbessert. Erweitertes Denken stellt sicher, dass Ihre KI-Assistent zu einer zuverlässigen Informations- und Beurteilungsquelle wird, die Vertrauen in Ihr Produkt schafft und Benutzer jeden Tag zurück zieht.

Feedbackschleife

Die Feedbackschleife ermöglicht es dem Bot, die Ausgabe des Sprachmodells zu überprüfen und zu korrigieren. Es überprüft die Struktur und die Parameter des Plans oder Monologs, den das Modell zurückgibt, und gibt Feedback zu Fehlern oder fehlenden Informationen. Das Modell versucht dann, seine Fehler zu beheben, und gibt eine gültige Ausgabe zurück. Die Feedbackschleife kann die Zuverlässigkeit und Genauigkeit des KI-Systems verbessern und die Wahrscheinlichkeit von Halluzination oder ungültigen Aktionen verringern.

In der folgenden Tabelle sind die Updates für die Teams KI-Bibliothek aufgeführt:

Typ Beschreibung .NET JavaScript Python
OpenAIModel Mit der OpenAIModel-Klasse können Sie sowohl OAI als auch Azure OAI mit einer einzelnen Komponente aufrufen. Neue Modelle können für andere Modelltypen wie LLaMA2 definiert werden. ✔️ ✔️ ✔️
Einbettungen Mit der OpenAIEmbeddings-Klasse können Sie Einbettungen mit OAI oder Azure OAI generieren. Neue Einbettungen können für Dinge wie OSS-Einbettungen definiert werden. ✔️ ✔️
Fordert Ein neues objektbasiertes Eingabeaufforderungssystem ermöglicht eine bessere Tokenverwaltung und verringert die Wahrscheinlichkeit, dass das Kontextfenster des Modells überläuft. ✔️ ✔️ ✔️
Augmentation Augmentationen vereinfachen die Aufgaben der Promptentwicklung, indem der Entwickler benannte Augmentationen zu seiner Eingabeaufforderung hinzufügen lässt. Nur functionsdie Stilerweiterungen , sequenceund monologue werden unterstützt. ✔️ ✔️ ✔️
Datenquellen Ein neues DataSource-Plug-In erleichtert das Hinzufügen von RAG zu jeder Eingabeaufforderung. Sie können eine benannte Datenquelle beim Planner registrieren und dann die Namen der Datenquellen angeben, die die Eingabeaufforderung erweitern möchten. ✔️ ✔️

Codebeispiele

Beispielname Beschreibung .NET Node.js Python
Echobot In diesem Beispiel wird gezeigt, wie Sie mithilfe von Bot Framework und der Ki-Bibliothek von Teams einen grundlegenden Konversationsfluss in eine Microsoft Teams-Anwendung integrieren. View View View
Search Befehlsnachrichtenerweiterung In diesem Beispiel wird gezeigt, wie Sie eine einfache Nachrichtenerweiterungs-App mithilfe von Bot Framework und der Teams KI-Bibliothek in eine Microsoft Teams-Anwendung integrieren. View View
Typeahead-Bot In diesem Beispiel wird gezeigt, wie Sie die Typeahead-Suchfunktion in adaptive Karten mithilfe von Bot Framework und der Teams KI-Bibliothek in eine Microsoft Teams-Anwendung integrieren. View View
Konversationsbot mit KI: Teams Chef In diesem Beispiel wird gezeigt, wie Sie ein grundlegendes Verhalten eines Konversationsbots in Microsoft Teams integrieren. Der Bot ist so aufgebaut, dass GPT die Konversation in seinem Namen erleichtern kann, indem nur eine Eingabeaufforderungsdatei in natürlicher Sprache verwendet wird, um sie zu leiten. View Anzeigen
Nachrichtenerweiterungen: GPT-ME Dieses Beispiel ist eine Nachrichtenerweiterung (ME) für Microsoft Teams, die das Text-davinci-003-Modell verwendet, um Benutzern beim Generieren und Aktualisieren von Beiträgen zu helfen. View View Anzeigen
Leichter Bot Dieses Beispiel veranschaulicht das komplexere Verhalten von Konversationsbots in Microsoft Teams. Der Bot ist so aufgebaut, dass GPT die Konversation in seinem Namen und manuell definierte Antworten erleichtern kann, und ordnet Benutzerabsichten benutzerdefinierten Aktionen zu. View View Anzeigen
Bot auflisten In diesem Beispiel wird gezeigt, wie Sie ein grundlegendes Verhalten eines Konversationsbots in Microsoft Teams integrieren. Der Bot nutzt die Leistungsfähigkeit von KI, um Ihren Workflow zu vereinfachen und Ordnung in Ihre täglichen Aufgaben zu bringen, und zeigt die Funktionen zur Aktionskette. View Anzeigen
DevOps-Bot In diesem Beispiel wird gezeigt, wie Sie ein grundlegendes Verhalten eines Konversationsbots in Microsoft Teams integrieren. Der Bot verwendet das modell gpt-3.5-turbo, um mit Teams-Benutzern zu chatten und DevOps-Aktionen wie Erstellen, Aktualisieren, Selektieren und Zusammenfassen von Arbeitselementen auszuführen. View Anzeigen
Zwanzig Fragen Dieses Beispiel zeigt die unglaublichen Funktionen von Sprachmodellen und das Konzept der Benutzerabsicht. Fordern Sie Ihre Fähigkeiten als menschlicher Spieler heraus, und versuchen Sie, innerhalb von 20 Fragen ein Geheimnis zu erraten, während der KI-gestützte Bot Ihre Fragen zum Geheimnis beantwortet. View Anzeigen
Mathelehrer Assistent In diesem Beispiel wird gezeigt, wie Sie mithilfe der Assistenten-APIs von OpenAI eine einfache Konversationsumgebung erstellen. Es verwendet das Code Interpreter-Tool von OpenAI, um eine Assistent zu erstellen, die ein Experte für Mathematik ist. View Anzeigen
Assistent In diesem Beispiel wird gezeigt, wie Sie eine Konversations-Assistent erstellen, die Tools zum Aufrufen von Aktionen in Ihrem Bots-Code verwendet. Es ist eine Essensbestellung Assistent für ein fiktives Restaurant namens The Pub und ist in der Lage, komplexe Interaktionen mit dem Benutzer, während es seine Bestellung nimmt. View Anzeigen

Nächster Schritt